La tribu desinformada

Sobre el valor del conocimiento para la cooperación social

Autor/a

Miguel Moreno

Fecha de publicación

22 de mayo de 2025

Portada y créditos

Portada: Un loro gris africano usa una pajita como herramienta

Imagen de portada: Sora, 2 mayo 2025


DOI

URL Unibooks

Netlify Netlify Status

Licencia Creative Commons
Licencia: CC BY NC SA 4.0

© Miguel Moreno 2025

2ª edición ampliada (versión 2025 v.2): mayo 2025 (secciones 1-19 y material complementario)
1ª versión: diciembre 2022


Cómo citar

Moreno Muñoz, Miguel (2025 v.2). La tribu desinformada. Sobre el valor del conocimiento para la cooperación social. Zenodo.org. https://doi.org/10.5281/zenodo.15484149


Introducción

La devaluación del conocimiento es un fenómeno bien constatado en las sociedades complejas. Su efecto distorsionador en el debate público mina todos los esfuerzos por alinear las acciones de individuos, empresas e instituciones con el interés general. A largo plazo, consolida diferencias insalvables entre unas comunidades capaces de gestionar sus conflictos y desafíos con instrumentos eficazmente anclados en la realidad y otras cuyos esquemas de liderazgo y participación política acusan los sesgos de ideologías, intereses y grupos de presión, sin el contrapeso de instituciones responsables de gestionar conocimiento experto con independencia y profesionalidad.

Pese a los avances que internet ha hecho posible con respecto a la era de la imprenta, facilitando el acceso al conocimiento y la cultura a millones de personas, los canales y fuentes de información fiable no parecen tener el efecto esperado en los procesos de toma de decisiones sobre asuntos de interés general. En la empresa informativa han adquirido un poder enorme actores sin escrúpulos, asesores políticos y grupos de presión que alimentan el conflicto social y las guerras culturales con estrategias de ofuscación del conocimiento especializado. Propagan rumores y seudoteorías sobre temas que constituyen los desafíos de nuestro tiempo, para los cuales los tiempos de reacción, el dimensionado de los recursos y la calidad del debate público resultan cruciales.

Baste recordar el efecto que han tenido las estrategias de desinformación sobre la utilidad de las vacunas o de las medidas de restricción de la movilidad y aforos para contener la epidemia de COVID-19, para hacernos una idea de cómo ciertos mensajes y actores pueden contribuir a generar dinámicas de irracionalidad colectiva, con un alto coste en vidas humanas y daños económicos. En contextos de crisis importa la calidad, celeridad y eficiencia de los cauces por los que llega al gran público la información fiable que contribuye a incentivar reacciones individuales compatibles con el interés general.

En las sociedades desarrolladas coexisten percepciones muy diversas acerca del valor y utilidad del conocimiento. En mayor medida cuanto más alejado parece de aplicaciones susceptibles de explotación comercial. No debería darse por sentado que estas diferencias son más acusadas entre individuos o ciertos gremios de lo que puede observarse entre instituciones. Pese a la retórica y propaganda en sus canales de difusión, ministerios, consejerías, fundaciones, editoriales y otras instancias responsables de promover la cultura y financiar la investigación no muestran criterios rigurosos equiparables —y consistentes en el tiempo— acerca del valor y utilidad del conocimiento en sus diferentes manifestaciones. Menos aún en el valor de la cooperación interdisciplinar a escala global para su desarrollo y consolidación, o en la necesidad de fortalecer redes de divulgación y alfabetización colectiva con el reconocimiento profesional y la financiación que esta actividad merece.

Si se descubre un nicho de mercado con perspectivas de rentabilidad, es muy posible que incluso instituciones respetables oferten programas formativos carentes de base científica (másteres de homeopatía, por ejemplo) y actores con menos escrúpulos estén dispuestos a poner a la venta productos fraudulentos (preparados homeopáticos o soluciones milagrosas para el cáncer) y seudo-tecnologías (falsos detectores de explosivos, terapia psicoanalítica, mindfulness, reiki, sesiones de reorientación sexual o pulseras magnéticas para la artritis, entre muchos timos).

El impacto en la cultura popular que tienen los elementos mencionados no debe menospreciarse. Las redes sociales y otros muchos servicios de las plataformas digitales amplifican opiniones infundadas y puntos de vista delirantes con igual o mayor eficacia que los planteamientos reflexivos y las ideas basadas en conocimiento fiable. En este contexto cultural y tecnológico surgen nuevas oportunidades para el desarrollo del pensamiento crítico que justifican una revisión actualizada de los criterios de racionalidad.

Apenas han variado en el último siglo las reacciones colectivas ante situaciones críticas en materia de salud pública. Tampoco la ofuscación mediática acerca de las medidas necesarias para prevenir catástrofes ambientales, climáticas o por exposición a fenómenos naturales en zonas de actividad sísmica o vulcanológica. Dotarse de criterios para reconocer patrones típicos de una gestión socialmente inadecuada del riesgo es un objetivo ambicioso, al que espero contribuya la lectura de estos capítulos.

Este trabajo no responde a la presión académica por publicar periódicamente sobre ciertos temas, se tenga o no algo novedoso que decir. Surge de la dificultad para integrar en un mismo soporte tres tipos de contenidos: 1) artículos y textos necesarios para adquirir perspectiva crítica sobre problemas actuales de interés en epistemología; 2) elementos extraídos de la discusión en clase con estudiantes de asignaturas de grado y máster en filosofía, biotecnología y otras titulaciones de la Universidad de Granada; 3) una selección de casos de estudio relevantes para contribuir al debate interdisciplinar sobre la utilidad y el valor del conocimiento con criterios básicos de rigor y equilibrio informativo.

Las estrategias de desinformación, el negacionismo científico y la difusión de bulos o teorías de la conspiración han adquirido la dimensión propia de una industria cultural, capaz de competir en eficacia y financiación con actores más respetables del ámbito académico y del periodismo profesional. Pero difícilmente se podía imaginar un escenario de hostigamiento a universidades, científicos, profesores y estudiantes en los campus y centros de investigación estadounidenses como el producido a lo largo de 2025. Episodios similares de acoso personal contra Ben Santer y otros expertos del clima mencionados en este trabajo parecían cosa del pasado. Ponen de manifiesto que las condiciones para el libre ejercicio de la libertad de expresión y de investigación no están dadas, sino que requieren una defensa continua como parte del núcleo de valores democráticos.

Resulta paradójico advertir hoy contra el negacionismo del Holocausto y la recuperación de ideología y símbolos típicos del fascismo cultural, en un contexto donde el gobierno de Israel en manos de extremistas y fanáticos religiosos es responsable de una secuencia interminable de actos genocidas contra el pueblo palestino con decenas de miles de víctimas, incluyendo el recurso al hambre y a los bombardeos indiscriminados contra hospitales, escuelas y edificios civiles. El fracaso de la comunidad internacional para impedir tales atrocidades y perseguir a los culpables de crímenes de guerra en Ucrania, Oriente Medio, República Democrática del Congo, Yemen o Afganistán solo refuerzan el valor del conocimiento como herramienta indispensable para la resolución pacífica de conflictos. Pero también como fuente de evidencia para establecer los hechos, identificar a las víctimas y procesar a los reponsables.

El vínculo entre negacionismo científico, escepticismo climático, nacionalismo identitario y movimientos de extrema derecha en ascenso constituye un motivo fundado de preocupación, antesala del fracaso colectivo en aspectos básicos de la cooperación social ante problemas acuciantes de alcance mundial.

Miguel Moreno 
Granada, mayo de 2025


I. LA IGNORANCIA Y SUS HERRAMIENTAS



Hay que pensar en la producción consciente, inconsciente y estructural de la ignorancia,
en sus diversas causas y conformaciones, ya sea provocada por la negligencia,
el olvido, la miopía, la extinción, el secreto o la supresión.

Robert Proctor


1. Ignorancia e incertidumbre

La ignorancia y los dispositivos culturales que la producen han sido objeto de estudio en trabajos como Agnotology, de Robert Proctor y Londa Schiebinger (2008).1 Merece la pena tener en cuenta la caracterización del fenómeno que Proctor realiza en su contribución (págs. 2-17), y las repercusiones que enfatiza. En particular, el deterioro de los sistemas de búsqueda colectiva de la verdad, en sus múltiples formas, cuando se diseminan prácticas que disocian las opiniones de los hechos y se desacreditan los intentos de buscar la verdad, identificar prejuicios, evaluar los hechos o compartir el conocimiento.

Las sociedades desconectadas de los hechos generan reductos y mecanismos de posverdad para vivir ajenas a los inconvenientes de la realidad; pero se arriesgan a retroceder cultural y políticamente hasta el colapso, pues las consecuencias llegan sin tiempo para más ensayos ni rectificaciones.2

Los detalles de esta dinámica quizá se capten mejor siguiendo el enfoque de David Magnus (Agnotology, págs. 250-266), quien relaciona el problema de la ignorancia con la duda y el principio de precaución en contextos de gestión de riesgos. Los inconvenientes de la ignorancia resultan obvios si consideramos el pánico del individuo común a incrementar la incertidumbre en sus decisiones cotidianas. En el ámbito de la actividad económica, la irrupción de factores de incertidumbre puede ocasionar episodios disruptivos en las bolsas de todo el mundo. En particular, cuando los factores tradicionales de riesgo se combinan con eventos poco probables y nuevas variables en escenarios de alta complejidad, que suponen un desafío para los esquemas convencionales de análisis y gestión del riesgo.

Aunque niveles moderados de incertidumbre no sean percibidos como peligrosos e incompatibles con expectativas razonables de éxito en multitud de empresas, lo cierto es que la ignorancia en los procesos de toma de decisiones tiene un alto coste para individuos y organizaciones que operan con bajos niveles de conocimiento especializado o aplican modelos deficientes de estimación de riesgos.

La limitación de los instrumentos de medición constituye la principal fuente de incertidumbre. En su acepción más básica, incertidumbre significa duda, entendida como la imposibilidad de conocer con exactitud el resultado del proceso —matemático— de medición en el contexto relevante de competencia profesional, análisis crítico, honradez intelectual e integridad de quienes contribuyen a la medición.

En contextos de actividad profesional, la incertidumbre se define como el “parámetro asociado al resultado de una medida, que caracteriza la dispersión de los valores que razonablemente pueden ser atribuidos al mensurando”.3

Más que un resultado derivado del instrumento o sistema de medida utilizado —solucionable mediante un proceso de calibración—, la incertidumbre se origina por una combinación de elementos ligados a contextos específicos, entre los que cabe destacar la resolución de los instrumentos de medida, la insuficiencia de la muestra utilizada, una caracterización imperfecta del elemento a medir y el efecto de las condiciones ambientales sobre la medición. El sesgo resultante puede agravarse por falta de cautela en la lectura de instrumentos analógicos, las suposiciones habituales en el método de medición y la inexactitud derivada del algoritmo de tratamiento de datos aplicado por el operador. Por esta razón son importantes los procedimientos de evaluación de las incertidumbres de medición, considerando el espacio muestral (es decir, el conjunto de todos los resultados posibles de un experimento aleatorio).

En ingeniería, teoría de la información y meteorología, por ejemplo, la incertidumbre resultante de una falta de conocimiento de los hechos o procesos que se pretende controlar admite ciclos de reducción —hasta su práctica eliminación— con más análisis y herramientas sofisticadas de experimentación y verificación. Pero en dominios como la economía pueden darse situaciones donde la incertidumbre tiene probabilidades desconocidas y resulta imposible calcular el riesgo. A esto se denomina incertidumbre de Knight. Entendida como falta de conocimiento cuantificable sobre un suceso posible, equivale a un grado fundamental de ignorancia que limita toda posibilidad de conocimiento e introduce una imprevisibilidad esencial de los acontecimientos futuros:

“La incertidumbre debe tomarse en un sentido radicalmente distinto de la noción familiar de Riesgo, de la que nunca se ha separado adecuadamente…. El hecho esencial es que el”riesgo” significa en algunos casos una cantidad susceptible de ser medida, mientras que en otras ocasiones es algo que no tiene este carácter; y hay diferencias cruciales y de gran alcance en las orientaciones de los fenómenos dependiendo de cuál de los dos está realmente presente y operando…. Se verá que una incertidumbre medible, o “riesgo” propiamente dicho, como usaremos el término, es tan diferente de una no medible que no es en efecto una incertidumbre en absoluto”.4

La subestimación de riesgo por ignorancia de la complejidad de ciertos procesos dificulta la planificación de acciones individuales y colectivas. Cuando los recursos lo permiten, puede resultar útil involucrar servicios específicos de consultoría y asesoramiento; o poner en práctica modelos más sofisticados y exigentes de cálculo de probabilidades. Pero la complejidad de los procesos en la vida social y el elevado número de actores que intervienen en la matriz de cambios subyacente a la actividad económica pueden originar escenarios de incertidumbre knightiana, donde la confianza en las herramientas convencionales de evaluación de riesgos resulte injustificada y contamine los procesos de toma de decisiones hasta hacerlos indistinguibles de la irracionalidad.

Una combinación de eventos de baja probabilidad —en la práctica considerados irrelevantes para el resultado esperado y descartados por quienes aplican modelos sofisticados de análisis de riesgo— puede desencadenar escenarios catastróficos, imposibles de ajustar a la desviación estándar en una distribución gaussiana de frecuencia estadística. Ampliamente utilizada para modelar fenómenos naturales, sociales y psicológicos, esta herramienta opera bajo el supuesto de que es posible describir un fenómeno como efecto de unas pocas causas independientes, sin entrar en la complejidad del proceso de explicación ni en la justificación del diseño experimental asociado.

La combinación de ignorancia, azar y sesgo en los modelos empleados puede desencadenar episodios devastadores de crisis repentina y transformación social, metafóricamente descritos por el matemático y analista de riesgos Nassim Nicholas Taleb como cisnes negros. La crisis financiera de 2008, la burbuja de las puntocom en 2001 y la recesión desencadenada por la epidemia de COVID-19 son ejemplos característicos de falibilidad del conocimiento humano.5

Mientras la incertidumbre aglutina un campo de intensa actividad disciplinar y actores cualificados de múltiples sectores profesionales, la ignorancia constituye la posición por defecto de la que huyen expertos y legos. Su elevado coste a corto y largo plazo justifica con creces el esfuerzo por reducirla a incertidumbre e integrarla en una representación del mundo cognitivamente manejable en la toma de decisiones.6 Si es necesario, inventando explicaciones retrospectivas que habrían hecho predecibles los eventos atípicos de mayor impacto; o refinando modelos usualmente entrenados con datos escasos, para que incorporen la posibilidad de fluctuaciones no reflejadas en los registros históricos.7

La tendencia común a interpretar los eventos pasados de un modo más predecible de lo que realmente fueron, por la distorsión que introduce el conocimiento obtenido con posterioridad, se denomina sesgo retrospectivo. Su efecto distrae la atención de las razones que llevaron a subestimar la probabilidad de un suceso y puede generar un exceso de confianza en la capacidad para predecir eventos de naturaleza similar en el futuro, incluso con las mismas herramientas y protocolos de decisión que fracasaron en el pasado.

Este sesgo es frecuente en escritos de historiadores que describen los resultados de las batallas o revoluciones sociales; en la interpretación de los ensayos clínicos por equipos de investigación biomédica y en la atribución de responsabilidad en el sistema judicial sobre la base de una supuesta previsibilidad de los accidentes8.

La aversión común a la ignorancia es un indicador del carácter problemático inherente a los escenarios de riesgo donde las decisiones han de tomarse sin la orientación de datos, teorías y herramientas validadas de cuantificación. En función del número de personas afectadas, el resultado puede ser catastrófico. De ahí que la transición del análisis de riesgo empresarial al estudio de riesgo de catástrofe resulte bastante natural, considerando que la epistemología del riesgo estudia las limitaciones del conocimiento humano acerca del comportamiento de sistemas complejos como el clima, los ecosistemas, la economía mundial o las colonias de insectos.9

Pese a tratarse de sistemas cuyo elevado número de componentes e interacciones potenciales los hace imprevisibles en aspectos importantes, esta incertidumbre fundamental no impide que puedan hacerse afirmaciones razonablemente fiables sobre su funcionamiento, decisivas tanto para las estimaciones frecuentistas de la probabilidad de riesgo —con las herramientas adecuadas— como para las actitudes y expectativas con las que el público general percibe la gravedad de un peligro o amenaza.10

2. Duda, escepticismo y acción

Un componente ineludible del pensamiento crítico es la habilidad para proyectar la duda sobre enunciados o creencias convencionalmente aceptados como verdaderos, pero cuyas fuentes y procedimientos de validación no cabe asumir como fiables. El desasosiego que ocasiona la falta de certezas sobre asuntos importantes para la reflexión teórica o para la vida práctica estimula procesos de indagación y puesta a prueba necesarios para descartar errores frecuentes en quienes opinan sin criterio experto —finalidad negativa— y justifica programas muy costosos de investigación teórica y aplicada destinados a ampliar el dominio de conocimiento bien consolidado en todos los ámbitos disciplinares —finalidad positiva—. La combinación de una finalidad negativa y otra positiva en el ejercicio de la duda establece límites para su uso indiscriminado, puesto que proyectada sobre cualquier contenido y en el máximo grado obligaría a comenzar desde cero todo proceso de aprendizaje y no dejaría más justificación para la acción que la expectativa de acierto por azar.11

Se entiende así la importancia del escepticismo científico como práctica institucionalizada, orientada a cuestionar la veracidad de las afirmaciones no sustentadas en evidencia o pruebas empíricas y a descartar teorías o puntos de vista incompatibles con las exigencias habituales del método científico —reproducibilidad, falsabilidad, coherencia teórica, exclusión de sesgo subjetivo— en cualquiera de sus variantes relevantes.12

Menos obvio resulta el carácter productivo de las prácticas investigadoras, orientadas a ampliar el conocimiento riguroso generando nuevos enunciados teóricos y diseñando procedimientos de verificación de datos o confirmación de hipótesis. Pero gracias a ellas se dispone de nuevos protocolos de análisis y evaluación de riesgos, de estándares para la validación de tecnologías seguras y de modelos más robustos para el estudio de sistemas tan complejos como el clima. La financiación de programas y prácticas para generar nuevo conocimiento hace posible identificar nuevos dominios de problemas y nuevos factores de riesgo (además de atribuir responsabilidades a quienes corresponde ocuparse de ellos).13

La interpretación del alcance de la duda en contextos de toma de decisiones bajo incertidumbre no se limita a considerar las consecuencias de un desenlace fortuito, desastroso o contrario a las exigencias del marco regulador de ciertas prácticas y actividades. La incertidumbre en diverso grado es un componente inherente a cada curso de acción en un mundo que no responde a mecanismos de causalidad férreamente deterministas en todos sus procesos, donde cabe la elección entre cursos de acción que conllevan riesgos imprudentes y opciones compatibles con criterios básicos de racionalidad y evitación de daños o pérdidas.14

La existencia de sistemas sofisticados de apoyo en la toma de decisiones para anticipar escenarios de riesgo y adoptar estrategias coherentes de prevención y mitigación de daños muestra la capacidad de muchos actores para involucrar conocimiento experto en la planificación de actividades, pese a los componentes de incertidumbre inherentes a la dinámica de los sistemas complejos donde el riesgo de materializa (Figura 1).

Fig. 1. Sistemas expertos (basados en el conocimiento) para la gestión de catástrofes.
Descripción de las principales etapas de la gestión de riesgos naturales.
Sistemas expertos para la gestión de catástrofes
Tacnet, Jean-Marc, and Corinne Curt (2013). “Expert (Knowledge-Based) Systems for Disaster Management.” In Encyclopedia of Natural Hazards, pp. 302–303. Dordrecht: Springer Netherlands.

Un ejercicio razonable de la duda o del criterio escéptico no puede eludir el conocimiento de base que sirve de orientación acerca del nivel riesgo aceptable en contextos de incertidumbre, como tampoco puede excluir el papel del azar y de la ignorancia —o de la información sesgada e incompleta— en la valoración de resultados y daños posibles hecha por los actores implicados. La posibilidad conocida de efectos secundarios de las vacunas en un porcentaje estadísticamente considerable de individuos no disuade a la mayoría de aceptar este riesgo bajo la suposición justificada de su utilidad preventiva y la confianza en los procedimientos de ensayos clínicos y validación de resultados. El conocimiento de una mortalidad y sufrimiento mayor en ausencia de ciertos programas de vacunación no equivale solo a conocer valores y probabilidades de resultados posibles, sino a entender cómo opera la cadena de responsabilidad que los favorece (quién expone a quién; qué secuelas deja la meningitis, el virus Zika, el tétanos o la poliomielitis a quienes sobreviven; quiénes establecen las prioridades de asignación de recursos sanitarios; qué colectivos salen beneficiados, etc.).15

Sobre este trasfondo de conocimiento fiable e incertidumbre acotada se consolida la práctica de los programas masivos de vacunación como la mejor opción para satisfacer los derechos de la mayoría —no solo de los colectivos vulnerables—, asumiendo que esta finalidad compensa el riesgo al que los individuos vacunados se exponen. El sistema social de gestión del riesgo que hace posible los programas de vacunación masiva es más justo —pese a que abre una ventana de exposición colectiva a riesgos no despreciables— porque opera de forma equitativa al servicio del mejor interés de los afectados e involucra conocimiento fiable (basado en la evidencia) en la secuencia de acciones y cooperación interinstitucional compatibles con dicho fin. Lo cual no excluye otras exigencias como informar, recabar consentimiento y, eventualmente, compensar por daños no deseados.16

La atribución de responsabilidad legal en los casos de conducta tipificada por el código pertinente involucra procedimientos y competencia profesional especializada (peritaje o práctica forense, p. ej.). La atribución de responsabilidad moral se sustenta en la consideración de los individuos como actores intencionales, bien informados y capacitados para llevar a cabo una estimación cabal de las consecuencias de sus acciones, en grado suficiente para anticipar las consecuencias indeseables y elegir el curso de acción correcto, sin exponer a los demás a riesgos injustificados. La competencia moral que atribuimos a ciertos individuos presupone una capacidad más básica para identificar cadenas de acontecimientos y resultados incompatibles con estados verosímiles de la naturaleza.

La incertidumbre sobre la probabilidad de eventos adversos en escenarios complejos de riesgo se acota a través de sistemas eficaces de alerta temprana, conectados a redes de dispositivos que proporcionan información actualizada y a la velocidad necesaria para desencadenar respuestas eficaces de protección, evacuación y reducción de impacto. La mera suspensión del juicio amparada en la duda no cuenta como respuesta satisfactoria en contextos de obligada interacción con el mundo físico y sus múltiples amenazas.

3. Ofuscación de la verdad

Los dispositivos culturales, tecnológicos e institucionales diseñados para sembrar o amplificar la duda sobre asuntos de interés público y bien estudiados han sido objeto de numerosas contribuciones en el ámbito académico.17 Coinciden en señalar cómo actores de peso en el mundo empresarial han empleado ingentes recursos en campañas sistemáticas dirigidas a ofuscar los resultados de la investigación científica y suprimir verdades incómodas sobre los riesgos de productos e ingredientes nocivos —pesticidas, tabaco, amianto, carcinógenos, etc.— para preservar su modelo de negocio. Una gigantesca fábrica de cabildeo y canales de difusión contaminados por intereses espurios ha logrado la captura de las instancias reguladoras en sus niveles decisivos, y presionado con eficacia para neutralizar la percepción de riesgo subyacente a cualquier intento de reforma del marco regulador.

El sesgo colectivo que pueden causar los grupos de presión en contextos de crisis o contienda electoral compromete aspectos esenciales de la dinámica democrática y ha obligado a intervenir a las instancias reguladoras que se ocupan de identificar las malas prácticas en los medios impresos y plataformas digitales, donde coexisten actores con trayectorias y modelos de negocio difícilmente asociables a criterios de veracidad, responsabilidad y equilibrio informativo.18

Stéphane Horel recogía numerosos ejemplos de noticias, patrañas o estudios sesgados en Lobbytomía (2018). Merece la pena su reflexión sobre “El taller de los hechos científicos alternativos” (cap. 4) y el papel que juega en los medios el colectivo de pseudoexpertos al que denomina mercenarios sobrecualificados, quizá el recurso más eficaz en la tarea de diseminar la duda y arremeter contra hechos demostrados.19

El trabajo de Horel analiza el complejo entramado de ofuscación de la verdad, promoción de intereses empresariales y seudotecnologías dañinas que minan la credibilidad de los canales de difusión académica (cap. 6: (Like a) Sciencewashing machine) y favorecen el derroche de fondos para la investigación (cap. 11). Denuncia también la ineficacia de las instancias reguladoras para evitar el conflicto de intereses, desplazando a entidades de paja o subcontratando la decisión pública en inofensivos esquemas de autorregulación deontológica (cap. 13 y 14).

Sin contrapeso disuasorio de las malas prácticas, los grupos de presión cuya actividad responde al principio de “beneficios privados y riesgos colectivos” —la industria de los combustibles fósiles es el ejemplo paradigmático, junto con las agroquímicas— consiguen introducir y mantener en el mercado productos dañinos para la salud o el medio ambiente, a menos que sus prácticas sean puestas en evidencia mediante procesos costosos de investigación científica y medios de comunicación independientes.20

El requisito de independencia incluye autonomía financiera —condición de posibilidad para resistir todos los intentos de colar piezas informativas de naturaleza promocional— y honestidad epistémica, entendida como un interés genuino por esclarecer los hechos y divulgar los resultados de investigación bien establecidos, sin sucumbir a la presión por neutralizar o atenuar el problema.21

Los intentos de ofuscación de la verdad tuvieron éxito notable en relación con los efectos de la lluvia ácida en bosques y ecosistemas, en los años ochenta del siglo pasado. Medios como Newsweek, Fortune, The Wall Street Journal y Nature se sumaron a la tesis de que faltaba evidencia sólida sobre el daño medioambiental y no procedía cambiar el marco regulador estadounidense, en clara oposición a la solicitud de acción coordinada transfronteriza requerida por las autoridades de protección ambiental canadienses, que sí habían tenido en cuenta la convergencia en los resultados de investigación sobre la gravedad del problema y sus causas.22

El diario The Guardian ha dedicado numerosas piezas informativas a revisar su propia estrategia de comunicación sobre problemas ambientales y el sesgo neutralizador del lenguaje utilizado para alertar de las consecuencias del cambio climático antropogénico en la salud humana y en los ecosistemas. Expresiones como cambio climático o calentamiento global no tienen el mismo efecto que emergencia climática; ni sugieren un escenario verosímil de “amenaza existencial directa”.23 Pero quienes durante décadas alertaron de la ignorancia deliberada de múltiples señales de alarma fueron tildados injustamente de profetas de la catástrofe.24

La frecuencia de encuadres periodísticos atenuantes, incluso en medios de gran prestigio profesional, no debe extrañar tras una larga campaña de acciones dirigidas a sesgar noticias e interpretación de resultados de investigación conforme a un criterio sistemático de subestimación del riesgo y ofuscación de la gravedad de los escenarios de crisis multidimensional que los informes de expertos han ido asociado durante décadas con el impacto del cambio climático, si no se reducen drásticamente las emisiones de gases de efecto invernadero.25

La gravedad de las conclusiones de estos informes —y las proyecciones de riesgo resultantes si no se lograban reducir las emisiones de CO2— fueron conocidas de primera mano por las grandes compañías de combustibles fósiles representadas en el American Petroleum Institute (API) y por integrantes de comisiones parlamentarias y administraciones estatales desde los años cincuenta. Sin embargo, durante ese medio siglo se triplicaron las toneladas de CO2 y metano emitidas por año (de 10.180 millones en 1959 a 39.790 en 2017).26

Emily Holden sostiene que apenas se ha conocido una mínima parte de los documentos que prueban la estrategia coordinada de las grandes empresas de combustibles fósiles para regar con miles de millones de dólares (al menos 3.600 solo en anuncios, a lo largo de tres décadas) las campañas de lavado de cara de su actividad. Pero el conjunto de las acciones de cabildeo y propaganda es mucho más complejo, puesto que una mayor sensibilización ante la cuestión ambiental encarece las estrategias orientadas a convencer a la opinión pública de que las grandes empresas de combustibles fósiles son actores imprescindibles en el entramado social, cuyo modelo de negocio conviene preservar y ampliar.27

Oliver Burkeman señala lo fácil que resulta caer presa de encuadres informativos falsamente equilibrados, donde la posición de los actores negacionistas y de seudo-expertos ligados a grupos de interés resulta artificialmente amplificada bajo el criterio de invitar a ambas partes a dar su opinión sobre un tema controvertido, pero donde solo una parte refleja el consenso basado en la evidencia, mientras la otra responde a esquemas de razonamiento motivado o sesgado por intereses o emociones no declarados.28

Los actores y grupos de presión negacionistas no han dudado en perseguir y acosar a quienes destacaban por la calidad de sus trabajos científicos y reforzaban la evidencia acerca del impacto físico y humano del cambio climático antropogénico. Pero las guerras del clima mediáticas no han evitado que se consolide un cuerpo robusto de conocimiento, series de datos e indicadores y modelos explicativos que prueban, sin margen razonable de duda, la gravedad y el alcance potencialmente catastrófico del efecto de la actividad humana en el calentamiento global.29

En contraste con la posición de consenso que reflejan más del 95% de las publicaciones científicas especializadas,30 el contenido difundido por los actores y grupos de presión negacionistas se orienta a canales de mayor impacto en la opinión pública como revistas, semanarios, periódicos y programas de radio o TV generalistas, donde pasan más fácilmente desapercibidas las manipulaciones y encuadres sesgados. En particular, la selección limitada de datos o evidencia relevante (cherry-picking), la exageración de los elementos de incertidumbre sobre aspectos bien conocidos y la presentación de controversias ya zanjadas como problemas aún sujetos a debate y pendientes de estudio científico.31